home *** CD-ROM | disk | FTP | other *** search
/ EnigmA Amiga Run 1998 July / EnigmA AMIGA RUN 29 (1998)(G.R. Edizioni)(IT)[!][issue 1998-07 & 08].iso / recent / urlupd.lha / URLUpDat / ReadMe.txt < prev    next >
Text File  |  1998-05-18  |  14KB  |  234 lines

  1. URLUpDat V1.00.19980518. © 1998 Michael J. Maloney BSc (Hons). Date Monday 
  2. 18th May 1998.
  3.  
  4. Syntax: URLUpDat FILE_SOURCE_DIRECTORY FILE_DESTINATION_DIRECTORY
  5. URL_INPUT_FILE URL_OUTPUT_FILE URL_MODIFIERS_FILE
  6. BEGIN_HOURS BEGIN_MINUTES BEGIN_SECONDS PAUSE_SECONDS
  7. FAILED_URLS_FILE MOVE_FILES_SHELL_SCRIPT
  8.  
  9. This program will not download files directly from the internet. It scans a 
  10. list in ascii format containing the Universal Resource Location (internet 
  11. address) of all the files that you would normally download over a given 
  12. period of time, moves the relevant downloaded files to a different location 
  13. altering their filenames and datestamps to user specified values, before 
  14. updating the original URL list. The updated list of URLs can then be passed 
  15. to whichever download utility you are using so that it can download the 
  16. next batch of files from the internet. The download utility that I use for 
  17. this purpose is Filehound on the PC, available from 
  18. 'http://www.windows95.com/apps/98/utilities.html' (or thereabouts at the 
  19. time of writing). It is shareware, small, simple to use, and will not cripple 
  20. you if you do not register it. A similar Amiga program should be available 
  21. from Aminet 'http://www/cucug.org/aminet.html'. The operation of 
  22. URLUpDat can be best explained by covering the arguments used in its 
  23. operation:
  24.  
  25. FILE_SOURCE_DIRECTORY e.g. URLUpDat:FilesIn/
  26. This is the source directory from where URLUpDat will look for downloaded 
  27. files. I recommend that you backup this before running URLUpDat as once a 
  28. downloaded file has been copied to its destination directory and any 
  29. alterations to its filename and datestamp have been successfully completed 
  30. then the original is no longer needed and automatically deleted.
  31.  
  32. FILE_DESTINATION_DIRECTORY e.g. URLUpDat:FilesOut/
  33. This is the destination directory where URLUpDat will copy any modified 
  34. files. WARNING: as it stands the Amiga Dos Copy command will not check if 
  35. there is enough room for the copied files on the destination volume. It is 
  36. incumbent on the user to do so. This should not be a problem as URLUpDat 
  37. only copies one file at a time, but those of you out there (including myself) 
  38. who use their Amigas in conjunction with their PCs via the shareware 
  39. program PC2Amiga (available from Aminet 'comms/net/PC2Am308.lha') will 
  40. have to make sure that there is enough room for all the copied files on 
  41. the Amiga if URLUpDat is copying them directly from the PC. Failure to do 
  42. so will result in checksum errors on the Amiga destination volume once it 
  43. has run out of room, and several hours spent repairing the damage with 
  44. DiskSalv.
  45.  
  46. URL_INPUT_FILE e.g. Ram:URL_In.txt
  47. This is a simple ascii file containing a list of the URLs that you would like 
  48. to download in the order that you would like to downloaded them. NB. Many 
  49. download utilities download files in parallel. That way if a web site is very 
  50. slow the other files do not have to be stuck in a queue waiting for one 
  51. stubborn file to finish downloading. This is great, but does tend to 
  52. randomize the file order if you are listing them chronologically. URLUpDat 
  53. sets the datestamps of selected files so that they reflect the date and 
  54. time according to the position that they appear on this list, and not the 
  55. date and time that the file was actually downloaded.
  56.  
  57. Each URL should be on a separate line. URLUpdat will scan backwards from 
  58. the end of this line until it finds a '/' character, signifying the division 
  59. between the location of the file and the filename itself. For this reason all 
  60. valid lines must contain a '/' somewhere on them. The Filename itself is 
  61. then subdivided into an alpha, a numeric and an extension section for 
  62. processing e.g. 'file', '999', '.txt'. URLUpDat assumes that most regularly 
  63. updated files will similarly be comprised of an alpha section, followed by a 
  64. numeric section followed by an extension; filenames that jumble their 
  65. alphanumeric characters may not be processed correctly by URLUpDat.
  66.  
  67. The first time that URLUpDat encounters '/Monday' it will prompt the user 
  68. to enter the date of the first Monday from which file downloading was 
  69. meant to begin (rarely the same as the date that it actually did). The date 
  70. is entered as a single eight digit number in the form year (4), month (2), 
  71. day (2) e.g. 19980618. Those using the American system for dates take 
  72. special care to follow the European convention here; a derivative of this 
  73. number can later be incorporated into the modified filename allowing files 
  74. with the same alpha prefix to be listed in the same order whether they 
  75. are listed alphabetically or chronologically. This does not happen with the 
  76. US date convention as the month and day are taken out of the years, 
  77. months, days, hours, minutes and seconds chronological sequence. Following 
  78. on from the first Monday every time that URLUpDat encounters a valid day 
  79. it will increase by one the date of files that were supposed to be 
  80. downloaded on that day, resetting the time value to its default for a new 
  81. day. The example script is configured for all the files that might be 
  82. downloaded in one week (this is the time scale that the majority of web 
  83. masters use when updating their sites), but it could be configured for one 
  84. day or one month or more, there is no upper limit, as long as no days are 
  85. skipped. URLs encountered before the first '/Monday' will retain there 
  86. original datestamps, even if their filenames are altered.
  87.  
  88. I recommend backing up this file as URLUpDat will probably automatically 
  89. overwrite it with an updated list of URLs once all modifications to the 
  90. current crop of downloaded files are completed successfully cf. 
  91. URL_OUTPUT_FILE.
  92.  
  93. URL_OUTPUT_FILE e.g. Ram:URL_Out.txt
  94. Once all the downloaded files from the original ascii list of URLs have been 
  95. processed then an updated list of URLs is prepared and saved as an ascii 
  96. file. This argument should normally have the same value as the 
  97. URL_INPUT_FILE argument, ensuring that the old list of URLs is overwritten 
  98. after it has served its purpose, but here and in the IconX example script 
  99. both files are held separately in RAM: before the old list of URLs is 
  100. overwritten by the new.
  101.  
  102. URL_MODIFIERS_FILE e.g. Ram:URL_Mods.txt
  103. This is a standard delimited ascii file containing the desired modifications 
  104. to the downloaded files and the URL list that was used to download them. 
  105. Discrete data segments are separated by commas; strings are enclosed 
  106. within double quotation marks. Every line holds a separate modification 
  107. instruction. A typical modification instruction is broken down into five 
  108. elements:
  109. "http://www.files.com/","file",7,"new","date"
  110. The first part of the instruction outlines the full internet address of the 
  111. downloaded file excluding the filename. E.g. if the full URL were
  112. 'http://www.files/file999.txt' all that would be required is 
  113. 'http://www.files.com/' not the 'file999.txt file' part. If you will it is
  114. the 'directory' containing the file.
  115.  
  116. The second part is the alpha part of the filename. E.g. if the full URL were 
  117. again 'http://www.files.com/file999.txt' the filename would be 'file999.txt' 
  118. and all that would be required is 'file'. Only one instruction is needed for 
  119. URLs that are identical up to this part in their structure. E.g. in this case 
  120. one instruction would process all the URLs between 
  121. 'http://www.files.com/file1.txt' and 'http://www.files.com/file999.txt' and 
  122. beyond.
  123.  
  124. Upon successfully downloading a file from the ascii list of URLs the 
  125. corresponding URL is incremented by a set number. This ensures that when 
  126. the updated list of URLs is again fed to a download utility it will not 
  127. download the same file again, but the next in sequence. The third part of 
  128. the instruction is the number by which the successful URL is incremented 
  129. (failed URLs are fed back as are). Setting this value to 0 means that the 
  130. URL will not be altered (some files at the end of URLs are changed on a 
  131. regular basis even though their URLs are not).
  132.  
  133. The fourth part of the instruction determines what the alpha part of the 
  134. filename of the modified file will be. E.g. suppose the original downloaded 
  135. file was called 'file999.txt'. Setting the fourth parameter to 'new' means 
  136. that once the file has been processed it will have the filename 
  137. 'new999.txt'.
  138.  
  139. By setting the fifth parameter of the instruction to 'date' the modified 
  140. file will incorporate the file's date into its modified filename between the 
  141. alpha and numeric segments. This makes sure that URLs that are supposed 
  142. to remain constant from download to download will nevertheless generate 
  143. files with unique filenames that when listed alphabetically will retain the 
  144. same characteristics as when listed chronologically. In this case, the 
  145. downloaded file 'file999.txt' will be renamed 'new19980518999.txt' assuming 
  146. it was supposed to be downloaded on Monday 18th May 1998. If you wish to 
  147. disable this option then set the parameter to any other value than 'date'; 
  148. 'no' works quite well.
  149.  
  150. BEGIN_HOURS e.g. 03
  151. This argument comprises a two digit number between 00 and 23 
  152. representing the 24 hour clock. When a new valid day is encountered in the 
  153. ascii list of URLs the timestamp of the next file processed is set to the 
  154. default value for a new day, determined by this and the following two 
  155. arguments. E.g. if this argument is set to 18 and the following two 
  156. arguments are set to 30 and 15 then every time the list of URLs calls for a 
  157. new day the timestamp of the first file that was supposed to be 
  158. downloaded on that day will be set to 18:30:15. NB. Try not to use 00 here; 
  159. this is the value that I use and if ever I get any files from someone using 
  160. this program it will mess up my file order (hey, if you are not paying for 
  161. this program then this is the least that you can do).
  162.  
  163. BEGIN_MINUTES e.g. 00
  164. This argument comprises a two digit number between 00 and 59 
  165. representing the minutes in an hour.
  166.  
  167. BEGIN_SECONDS e.g. 00
  168. This argument comprises a two digit number between 00 and 59 
  169. representing the number of seconds in a minute.
  170.  
  171. PAUSE_SECONDS e.g. 20
  172. The timestamps of sequentially processed files will be incremented by a 
  173. number of seconds equal to the numeric value set here. E.g. if this is set 
  174. to 90 then when the processed files are examined it will appear as if 
  175. every file took one and a half minutes to download. This allows the later 
  176. insertion of files into the 'gaps'. If this argument is set to 0 then the 
  177. modified files will retain there original datestamps. A word of caution 
  178. before you choose this value. If the interval is so great that it causes the 
  179. clock to go from 23:59 to 00:00 the date will not increase, and new files 
  180. will have earlier datestamps than older ones. Only a valid day encountered 
  181. by URLUpDat in the list of URLs can trigger a date change.
  182.  
  183. FAILED_URLS_FILE e.g. Ram:URL_Fail.txt
  184. This is an ascii file containing a list of URLs that failed to download (when 
  185. it comes time to retry downloading failed URLs depending on which download 
  186. utility you use it is easier to feed into it a list of failed URLs rather than 
  187. the entire list).
  188.  
  189. MOVE_FILES_SHELL_SCRIPT e.g. Ram:URL_Move.txt
  190. URLUpDat does not modify files directly. It creates a shell script listing 
  191. desired modifications to downloaded files that the user must execute (the 
  192. example IconX script does this for you automatically). This argument 
  193. specifies the name of the ascii file containing this script. Having a shell 
  194. script allows you to see exactly what actions will be carried out on your 
  195. downloaded files before they are carried out; it also allows anyone with a 
  196. working knowledge of word processors and A-Rexx macros to further 
  197. modify the actions to be performed on their downloaded files without an in 
  198. depth knowledge of 'C'. A file will only be included in this script if it 
  199. already exists in the source directory, matches a valid URL in the ascii 
  200. list of URLs and its modified filename would not overwrite an existing file 
  201. in the destination directory.
  202.  
  203. Known bugs: There are none that I have found yet, however, because PCs 
  204. put a carriage return as well as a line feed to signal the end of a line in 
  205. an ascii file, you should only use scripts that have been prepared on an 
  206. Amiga, not a PC. When I was writing this program I initially used the list of 
  207. URLs I had prepared using Notepad and Filehound on the PC. When URLUpDat 
  208. tried to process this it worked fine the first time, but not the second. 
  209. URLs are case sensitive, and they are handled as such by URLUpDat, so 
  210. take care when entering information into the URLs and Mods script files.
  211.  
  212. Disclaimer: The author accepts no liability for any loss or damage incurred 
  213. through use or misuse of this program. This program is shareware; if you 
  214. find that it spares you from endless tedious hours of keeping your URL 
  215. addresses and downloaded files in good order then please spare a thought 
  216. for the author and send the equivalent of £10 sterling to the postal 
  217. address below. As the author does not believe in crippleware, you will 
  218. receive no benefit for doing so other than knowing that you have paid 
  219. good money for good service and helped in the development of this and 
  220. future products. The Amiga is dead; long live the Amiga.
  221.  
  222. The example URLs in the Scripts directory are exactly that. The author 
  223. does not bear any responsibility for the content at the end of these links, 
  224. nor does the author encourage users of this program to follow them. 
  225. Users do so at their own risk. There is nothing to stop anyone from 
  226. including their own list of URLs with this program.
  227.  
  228. Mr. M. J. Maloney
  229. 53 Vale Road
  230. COLWICK
  231. Nottingham
  232. NG4 2GL
  233. United Kingdom.
  234.